L'ANALISI

Privacy: norme e sanzioni non bastano. È tempo di etica “tangibile”

L’iniziale sovrapposizione tra vita reale e digitale sta evolvendo verso l“osmosi”. È necessario mettere a punto sin da ora parametri di riferimento che consentano di equilibrare gli interessi economici legati all’avvento dell’intelligenza artificiale e i diritti degli individui

Pubblicato il 17 Set 2019

Anna Cataleta

Avvocato, Partners4Innovation

privacy-170504152016

Se ai professionisti del settore è evidente da tempo, di contro solo una piccola percentuale della popolazione ha la piena e concreta percezione dei radicali mutamenti che, da una decina di anni a questa parte, si stanno verificando nei processi industriali. E di quanto siano profonde le ripercussioni nei rapporti lavorativi e sociali, fino a toccare la sfera più intima dell’individuo.

IL FAR WEST DEI DATI E LA SFIDA OTT

La rivoluzione in corso è determinata dalla digitalizzazione e dalla velocità con cui la stessa ha modificato l’economia: la possibilità di trasformare le informazioni in un formato interpretabile dai computer ed i progressi nelle tecnologie dell’informazione e della comunicazione hanno fatto emergere il potenziale economico dei dati personali. Una rivoluzione accompagnata dal cosiddetto fenomeno dei “far west dei dati” a cui il Gdpr e in generale le recenti normative privacy, hanno risposto mettendo nero su bianco i diritti degli individui, responsabilizzato le aziende e stabilito rilevanti sanzioni. Ma la strada è ancora lunga. E c’è molto da fare sul fronte over the top (Ott).

Alcuni recenti casi di violazione che hanno visto protagonisti Facebook e Google si prestano ad alcune considerazioni. Google si è vista infliggere una multa da 170 milioni di dollari dalla Federal Trade Commission (Ftc) per aver illegalmente raccolto i dati personali di milioni di utenti minorenni di YouTube (e di averli usati per pubblicità mirate) e sempre la Ftc ha da poco sanzionato Facebook per 5 miliardi di dollari, per la cessione dei dati di circa 87 milioni di utenti a Cambridge Analytica (per scopi politici). Entrambe le sanzioni sono state percepite dai più come ingenti tanto da considerarle “maxi-sanzioni” forse fra le più alte mai applicate. A ben guardare però queste sanzioni si “ridimensionano” notevolmente al confronto con il fatturato annuo dei due colossi che nel 2018 è stato di più di 136 miliardi di dollari per Google e di oltre di 55 miliardi di dollari per Facebook. Non può essere dunque questa la strada per scongiurare ulteriori violazioni.

GDPR IL FARO, MA NON BASTA

Le attuali normative costituiscono di certo un valido strumento di enforcement (per certi versi addirittura sovradimensionato) per la tutela della protezione dei dati degli individui da parte delle Pmi, ma non costituiscono un valido deterrente quando il volume degli interessati colpiti dalla violazione e i numeri di fatturato delle aziende crescono in misura esponenziale.

E c’è dell’altro. L’impianto normativo, compreso il Gdpr, non si presta né potrebbe tener conto del contesto socio-economico e del momento storico che stiamo vivendo e vivremo. A meno di dieci anni dall’inizio della quarta rivoluzione industriale già sono in atto alcuni elementi caratterizzanti la quinta rivoluzione: se Industry 4.0 ha visto centrale l’interazione/interconnessione nel mondo delle macchine (IoT, calcolo cognitivo, computer, server cloud), Industry 5.0 si fonda sullo sviluppo accelerato dell’intelligenza artificiale con i robot/cobots che assumono via via capacità umane.

E non a caso è sempre più dibattuto il tema del controllo delle menti umane da parte degli algoritmi – e quindi alle macchine – (come attraverso la gerarchizzazione delle fonti di informazione operata da PageRank e da EdgeRank), cosi come delle decisioni sul nostro “destino” (ne sono esempi i droni killer e le sentenze penali), delle nostre relazioni sentimentali (con le app di dating), dell’accesso ai servizi finanziari (per identificare le frodi, valutare l’affidabilità creditizia), delle politiche economiche (vedasi a tal proposito lo studio Artificial Intelligence, Algorithmic Pricing and Collusion a firma di un gruppo di ricercatori dell’Università di Bologna sulle politiche dei prezzi dei prodotti online pubblicato su SSRN – Social Science Research Network).

LA LEGGE E L’ETICA NON SONO LA STESSA COSA

Se è vero che tutto è legale (nel rispetto delle condizioni poste dalla normativa), la domanda che bisogna porsi è: è altrettanto corretto o giusto? In un’epoca in cui il meccanismo della riprovazione sociale sembrava essere sparito, cancellato da un individualismo esasperato, ecco che, davanti alla freddezza delle macchine e allo spettro di un mondo ricondotto a combinazioni di zero o uno, torna prepotentemente alla ribalta l’etica e l’esigenza dunque di considerare la realtà da una prospettiva collettiva e relazionale. Un’etica che si faccia “tangibile”, perché sempre più tangibile è il percorso di un nuovo paradigma in cui quella che inizialmente era una “semplice” sovrapposizione tra vita reale e digitale punta a diventare “osmosi”.

In tale direzione il primo considerando del Regolamento (UE) 2018/1807 del 14 novembre 2018 relativo alla libera circolazione dei dati non personali nell’Unione europea recita: “Il rapido sviluppo dell’economia dei dati e di tecnologie emergenti come l’intelligenza artificiale, i prodotti e i servizi relativi all’Internet degli oggetti, i sistemi autonomi e la tecnologia 5G sollevano nuove questioni giuridiche relative all’accesso ai dati e al loro riutilizzo, alla responsabilità, all’etica e alla solidarietà. Si dovrebbe considerare l’opportunità di lavorare in materia di responsabilità, segnatamente attraverso l’impiego di codici di autoregolamentazione e altre migliori prassi, tenendo conto delle raccomandazioni, delle decisioni e delle azioni adottate senza interazione umana lungo l’intera catena del valore del trattamento dei dati”.

IL TEAM PER L’INTELLIGENZA ARTIFICIALE

Nella direzione dell’affermazione di un’etica dei dati, la Commissione europea ha istituito un gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale che l’8 aprile 2019 ha pubblicato il documento “Orientamenti etici per un IA affidabile” – scaturito da una consultazione pubblica durante la quale oltre 500 partecipanti hanno fornito il proprio riscontro su un primo progetto del citato documento pubblicato il 18 dicembre 2018 – che stabilisce importanti linee guida di azione per garantire che l’IA e gli algoritmi da essa generati non danneggino la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani.

Tale documento chiarisce come l’etica di cui discutiamo non vada intesa come un mero concetto filosofico, ma (anche) come una concreta summa di parametri verso cui orientare fin da subito i comportamenti delle aziende per realizzare un’IA affidabile. Non ci si limita infatti ad indicare i principi etici -ricavati dai diritti fondamentali da tutelare- da rispettare nello sviluppo, distribuzione e utilizzo dei sistemi di IA ma, pragmaticamente, vengono elencati i sette requisiti forndamentali che i sistemi di IA dovrebbero soddisfare: intervento e sorveglianza umani; robustezza tecnica e sicurezza; riservatezza e governance dei dati; trasparenza; diversità, non discriminazione ed equità; benessere sociale e ambientale; accountability. E si fornisce altresì una lista di controllo concreta per la valutazione dell’affidabilità dell’IA, lista sottoposta ai portatori di interessi per una fase pilota di sperimentazione sulla quale si farà il punto a inizio del 2020 in considerazione dei riscontri raccolti.

LA RACCOMANDAZIONE OCSE

A maggio 2019 sono stati adottati i Principi Ocse sull’intelligenza artificiale con l’approvazione della Raccomandazione del Consiglio Ocse sull’Intelligenza Artificiale, frutto di compromessi, volto a fissare degli standard internazionali (firmato da 36 Paesi membri, tra cui figurano le grandi economie mondiali eccetto la Cina, e sei non membri come Argentina, Brasile, Colombia, Costa Rica, Perù e Romania) enucleati in cinque principi fondamentali. Secondo l’Ocse l’IA deve portare benefici ai popoli e al pianeta, consentendo crescita inclusiva, sviluppo sostenibile e welfare. E i sistemi di IA devono essere disegnati rispettando la legge, i diritti umani, i valori democratici e le diversità, oltre a dover includere delle salvaguardie che permettano l’intervento umano.

Il punto è rendere ora possibile il trasferimento dei principi Ocse dal piano della policy a quello dell’economia e del business per consentirne l’applicazione. Per questo, a partire dall’imminente autunno l’Ocse istituirà un osservatorio online di buone pratiche e soluzioni per le aziende che hanno deciso di scommettere sull’IA, in nome di un’etica dell’innovazione tecnologica, dove l’IA resti laica, democratica e senza preconcetti.

Semore su questa tematica, seppur seguendo una prospettiva parzialmente diversa, a settembre 2018, l’agenzia governativa del Dipartimento della difesa degli Stati Uniti (Darpa) ha annunciato il lancio del programma “AI Next” investendo 2 miliardi di dollari nella ricerca sull’intelligenza artificiale con il dichiarato obiettivo di far acquisire alle macchine capacità comunicative e di ragionamento, anche etico, simili a quelle degli esseri umani, come la capacità di riconoscere e adattarsi a nuovi ambienti e situazioni.

LA RESPONSABILITA’ AZIENDALE

Altro aspetto particolarmente critico ed ampiamente dibattuto è quello relativo alla responsabilità aziendale. Le semplici sanzioni pecuniarie non servono da sole a scoraggiare violazioni, ad esempio, della privacy, consapevoli o non. Le sanzioni pecuniarie, per quanto pesanti, non hanno che una valenza simbolica in mancanza di provvedimenti specifici, accordi anche concertativi o di piani di controllo che possano veramente disincentivare e fungere da deterrente per future violazioni. È evidente pertanto la necessità di adottare un diverso approccio culturale, aziendale, politico.

Anche in questo caso tornano in gioco le implicazioni etiche, perché non sfugge che il sistema capitalistico può rimanere valido solo se le imprese, specie le grandi, smetteranno di considerare il profitto e gli interessi degli azionisti gli unici fari guida della loro azione. Piuttosto dovranno ispirarsi ad altri principi, come la tutela dell’ambiente e quella dei propri dipendenti, il presidio (attraverso adeguati investimenti) degli aspetti di sicurezza informatica, così da creare valore nel lungo periodo senza ricadute sociali.

In tal senso, è da accogliere favorevolmente la svolta etica operata, lo scorso agosto, dalla Business Roundtable statunitense (Brt), a cui aderiscono oltre 200 compagnie statunitensi, colossi del capitalismo americano – tra cui i big delle telecomunicazioni e del digitale come Apple – che, finalmente accantona il principio della massimizzazione del profitto/aumento del valore delle azioni, che non deve più rappresentare il solo obiettivo per gli shareholders, e cedere invece il passo agli interessi degli stakeholders, ovvero tutti coloro che subiscono un impatto dalle decisioni del management e dunque lavoratori, consumatori, la società tout court, e non ultimo, l’ambiente. È da auspicare che una simile iniziativa sia replicata anche dalle grandi aziende della vecchia Europa.

Le aziende stanno man mano prendendo consapevolezza del fatto che, diversamente dal rischio di sanzioni economiche, il rischio reputazionale è concreto e denso di conseguenze ed è su questo che governi, legislatori, lavoratori e consumatori devono far leva. Alle dichiarazioni di intenti della Business Roundtable dovranno però seguire azioni concrete in termini di obiettivi, strumenti, tempi. Non bisogna commettere l’errore di considerare che le imprese – anche laddove dotate di efficaci sistemi di corporate social responsibility improntati ai principi di cui sopra- possano sostituirsi alla politica, al legislatore e più in generale agli Stati e alle autorità e agli organismi sovranazionali. A questi ultimi deve comunque rimanere il compito di stabilire le regole (a tutela dei bisogni primari e dei diritti dell’individuo e della collettività nelle sue varie componenti sociali, dell’ambiente, della pace, ecc.) e di stabilire, e applicare, le sanzioni per chi non le rispetta.

IL COMPITO DEGLI STATI

L’applicazione dei principi etici da parte degli Stati e delle aziende insieme, a partire dal settore della tutela dei dati personali, può ritenersi una risposta efficace. Una risposta destinata a rivolgersi anche alle istanze – cavalcate dalle voci del ‘populismo’ e del ‘sovranismo’ e, tuttavia, non riconducibili solo a queste – che oggi puntano il dito contro i governi e l’establishment per avere iniquamente favorito le multinazionali a detrimento di altri, dai lavoratori ai consumatori, all’ambiente.

Siamo di fronte a una rivoluzione valoriale decisa a trovare un’altra via rispetto a certi dogmi del neoliberismo di Milton Friedman e della scuola di Chicago che hanno guidato non poche decisioni aziendali di questi anni, rendendoci talora ostaggio di un capitalismo digitale predatore.

C’è da sperare che anche nella pratica, come sembrerebbe nella teoria, questo possa avere delle ricadute positive sul rispetto dei diritti umani.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati